1
Au-delà des prompts simples : le passage aux workflows complexes
AI010Lesson 4
00:00

La fin du "grand prompt"

Dans les premiers développements des LLM, les utilisateurs essayaient souvent de "forcer" toutes les instructions, contraintes et points de données dans un seul prompt massif. Bien que cela paraisse intuitif, cette approche entraîne surapprentissage, des coûts élevés en jetons, et crée une "boîte noire" où le débogage des échecs devient presque impossible.

L'industrie se tourne vers le chaînage de prompts. Cette approche modulaire considère le LLM comme une série d'ouvriers spécialisés plutôt que comme un généraliste surmené.

Pourquoi chaîner les prompts ?

  • Fiabilité :Décomposer une tâche complexe en sous-tâches gérables réduit drastiquement les taux d'hallucinations.
  • Intégration :Elle vous permet d'injecter dynamiquement des données provenant d'outils externes (comme une base de données JSON interne ou une API) au milieu du workflow.
  • Efficacité des coûts :Vous n'envoyez que le contexte nécessaire pour chaque étape spécifique, ce qui économise des jetons.
Règle d'or : Décomposition des tâches
Un seul prompt doit traiter une tâche spécifique. Si vous constatez que vous utilisez plus de trois expressions "et puis" dans une seule instruction de prompt, il est temps de les chaîner en appels distincts.
pipeline.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute pipeline.
>
Knowledge Check
Why is "Dynamic Context Loading" (fetching data mid-workflow) preferred over putting all possible information into a single system prompt?
It makes the model run faster on local hardware.
It prevents model confusion and reduces token costs by only providing necessary data.
It allows the model to ignore the system instructions.
Challenge: Designing a Safe Support Bot
Apply prompt chaining principles to a real-world scenario.
You are building a tech support bot. A user asks for the manual of a "X-2000 Laptop."

Your task is to define the logical sequence of prompts needed to verify the product exists in your database and ensure the final output doesn't contain prohibited safety violations.
Step 1
What should the first two actions in your pipeline be immediately after receiving the user's message?
Solution:
1. Input Moderation: Check if the prompt contains malicious injection attempts. Evaluate as $ (N/Y) $.
2. Entity Extraction: Use a specialized prompt to extract the product name ("X-2000 Laptop") from the raw text.
Step 2
Once the entity is extracted, how do you generate the final safe response?
Solution:
1. Database Lookup: Query the internal DB for "X-2000 Laptop" manual data.
2. Response Generation: Pass the user query AND the retrieved DB data to the LLM to draft an answer.
3. Output Moderation: Run a final check on the generated text to ensure no safety policies were violated before sending it to the user.